23 - Informationstheorie [ID:5317]
50 von 547 angezeigt

Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.

Ihr könnt es bereits sehen, ich habe etwas vorbereitet. Es ist im Wesentlichen die Prüfung,

die im StudOn steht. Das ist die Prüfung von vor einem Jahr, also aus dem letzten Sommersemester.

Grundsätzlich bleibt die Prüfung. Das bedeutet, was sind die Prüfungsumstände für euch.

Hilfsmittel, das ist genau das gleiche. Sechs Seiten, drei Blätter vorn und rückseitig

beschrieben oder sechs Seiten jeweils einzeln beschrieben. Wichtig ist, die müssen selbst

handgeschrieben sein, also auch keine Kopien. Die Idee, die dahinter steht, ist ganz einfach,

dass das Ganze soll weniger als Formelsammlung eigentlich dienen, sondern mehr als Lernhilfe.

Wenn ihr es mal irgendwie aufschreibt, dann wird es in der Regel bereits im Hinterkopf hängen bleiben.

Punktemäßig wird auch wieder ungefähr in dem Bereich zu finden sein, das heißt bei 90 Minuten

Prüfungsdauer um die 100 Punkte, vielleicht ein bisschen mehr. Aber auch hier wird so sein,

macht euch keine Gedanken darüber, wenn ihr nicht fertig werdet. Es ist eine Überhangklausur,

das heißt, es ist durchaus gedacht, dass ihr nicht unbedingt alles richtig habt.

Dann gehen wir es einfach mal durch. Es wird diese Aussage dieses Jahr nicht geben,

dass irgendwas für 1.0 ausreicht, sondern wir werden das schauen, wie ihr euch anstellt.

In der Regel 90 Punkte wird auf jeden Fall ausreichen, aber es kann auch sein,

dass die Grenze deutlich drunter liegt. Die Punktegrenzen werden natürlich immer ein

bisschen danach verschoben, wie so der Gesamtschnitt ist. Wenn jetzt natürlich alle Leute eine 90 haben,

dann wirst du mit einer 89 vermutlich nur eine 1.3 kriegen, aber das ist in der Regel unwahrscheinlich.

Okay, ich weiß nicht, da die Prüfung in grob zwei Wochen ist, werdet ihr höchstwahrscheinlich noch

nicht so voll in der Klausurvorbereitung drinstecken. Das heißt, ich werde jetzt

so ein bisschen versuchen, mit euch durchzugehen, die einzelnen Fragen. Ich hoffe, ein paar Antworten

sollten eigentlich inzwischen euch bereits aus den Übungen und aus der Vorlesung mehr oder weniger

in Fleisch und Blut übergegangen sein, sodass die eigentlich ohne große Vorbereitung zu beantworten

sein sollte. Dann gibt es immer ein paar tricky Fragen, da können wir mal gucken, ob jemand drauf

kommt. Also fangen wir doch ganz einfach mal an. Erläutern Sie intuitiv die Bedeutung der Entropie H

von X einer Zufallsvariable in X. Irgendjemand eine Idee, was er hinschreiben würde? Was bedeutet

hohe Entropie? Was bedeutet geringe Entropie? Ich kann mal das Licht hier noch anmachen,

schnell damit ich dann... Ja. Genau. Das war es eigentlich schon. Entropie ist ein Maß für die

Unsicherheit, hohe Entropie. Ich kann wenig über den Ausgang einer Zufallsvariable aussagen.

Niedrige Entropie. Ich kann relativ gut schätzen im Mittel, was später rauskommt. Der Extremfall.

In welchem Fall gilt H von X gleich Null? Also die Entropie gleich Null. Genau. Bei einer

deterministischen Zufallsvariable. Das heißt, im Prinzip ist es keine Zufallsvariable mehr.

Das gleiche Spielchen wird jetzt wiederholt für die Mutual Information zwischen zwei

Zufallsvariablen. Auch wieder zuerst die Frage, was ist eigentlich die Mutual Information? Und

dann der Extremwertfall, wann ist die Mutual Information zwischen zwei Zufallsvariablen Null?

Jemand eine Ahnung für die Aufgabe C? Mutual Information. Genau. Es ist die Information,

die ich über die andere Zufallsvariable erhalte, wenn ich die eine beobachte. Ich sehe Y. Wie

viele Informationen weiß ich daraus über X? Was ergibt sich daraus dann für ein Extremfall?

Wann haben wir keinerlei Mutual Information oder keinerlei wechselseitige Information

zwischen zwei Zufallsvariablen? Genau. Statistische Unabhängigkeit bedeutet, wie der Name natürlich

irgendwie schon vermuten lässt, da kann ich nicht wirklich was darüber sagen. Wenn ich

das eine weiß, weiß ich trotzdem nichts über das andere. Okay, im Folgenden gibt es vier

Ungleichungen. Das ist die 1e. Beziehungsweise Gleichungen oder Ungleichungen. Und die Frage

an euch ist an dieser Stelle immer, ist es ein größer Gleich, ist es ein ist Gleich oder

ist es ein kleiner Gleich? Und aber nicht nur die Frage, was ist es, sondern auch die Frage,

warum ist es so? X und Y seien belebige, diskrete Zufallsvariablen. Keine weiteren Informationen

soweit. H von 5X? Jemand eine Idee? Ja. Warum? Genau. Die Skalierung der Zufallsvariablen

ändert nichts an der Verteilung. Ob ich einen Würfelwürfel und 1, 2, 3, 4, 5, 6 rauskomme

mit einem Sechstel oder ob ich einen Würfelwürfel und die Zufallsvariablen die Werte 6, 12,

Teil einer Videoserie :

Zugänglich über

Offener Zugang

Dauer

01:19:30 Min

Aufnahmedatum

2015-07-08

Hochgeladen am

2015-07-09 18:05:42

Sprache

de-DE

Grundlegende Definitionen: Information, Entropie, wechselseitige Information. Quellencodierung zur Datenreduktion: Quellencodierungstheorem, verschiedene verlustfreie Kompressionsverfahren für diskrete Quellen nach Huffman, Tunstall und Lempel-Ziv, Entropie und Codierung für gedächtnisbehaftete Quellen, Markovketten. Kanalcodierung zur zuverlässigen Übertragung über gestörte Kanäle: Kanalmodelle, Kanalkapazität, Kanalcodierungstheorem, Abschätzungen der Fehlerwahrscheinlichkeit, cut-off-Rate, Gallager-Fehlerexponent.

Einbetten
Wordpress FAU Plugin
iFrame
Teilen